首页> 外文OA文献 >Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking
【2h】

Spatially Supervised Recurrent Convolutional Neural Networks for Visual Object Tracking

机译:用于视觉的空间监督递归卷积神经网络   对象跟踪

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

In this paper, we develop a new approach of spatially supervised recurrentconvolutional neural networks for visual object tracking. Our recurrentconvolutional network exploits the history of locations as well as thedistinctive visual features learned by the deep neural networks. Inspired byrecent bounding box regression methods for object detection, we study theregression capability of Long Short-Term Memory (LSTM) in the temporal domain,and propose to concatenate high-level visual features produced by convolutionalnetworks with region information. In contrast to existing deep learning basedtrackers that use binary classification for region candidates, we useregression for direct prediction of the tracking locations both at theconvolutional layer and at the recurrent unit. Our extensive experimentalresults and performance comparison with state-of-the-art tracking methods onchallenging benchmark video tracking datasets shows that our tracker is moreaccurate and robust while maintaining low computational cost. For most testvideo sequences, our method achieves the best tracking performance, oftenoutperforms the second best by a large margin.
机译:在本文中,我们开发了一种用于视觉对象跟踪的空间监督递归卷积神经网络的新方法。我们的循环卷积网络利用位置的历史以及由深度神经网络学到的独特视觉特征。受最近的边界框回归方法用于对象检测的启发,我们研究了时域中的长短期记忆(LSTM)的回归能力,并提出了将卷积网络产生的高级视觉特征与区域信息连接起来的方法。与现有的基于深度学习的跟踪器使用二进制分类作为区域候选者相比,我们使用用户出口直接预测卷积层和循环单元处的跟踪位置。我们对具有挑战性的基准视频跟踪数据集进行了广泛的实验结果,并与最新的跟踪方法进行了性能比较,结果表明,我们的跟踪器更准确,更强大,同时保持了较低的计算成本。对于大多数测试视频序列,我们的方法可实现最佳跟踪性能,通常在很大程度上优于次优视频。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号